Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Seguimiento. Tracking (página 2)




Enviado por Pablo Turmero



Partes: 1, 2

Monografias.com

Descripción de los tres primeros modos de variación en falange proximal.

Monografias.com

SEGMENTACIÓN DE LAS FALANGES.
Trabajaremos sobre una imagen de gradientes suavizada.
Mediante una plantilla rectangular localizamos la orientación del dedo ?ref.
Introducimos una transformación de rotación de forma que la curva evolucione hacia una orientación favorable.
En cada iteración buscamos en torno a un segmento perpendicular al nudo, el mejor candidato cuyo gradiente de gris ??I?x,y?? sea máximo.
La curva se contraerá o extenderá a través del modelo conservando la forma de la falange.

Monografias.com

2.3 Modelos de personas.

Monografias.com

2.3 Modelos de personas.

Monografias.com

2.4 Integración de modelos.
Integración de modelos (P. Remagnino):

Generación de modelos para coches y personas mediante PDM haciendo un PCA.
Conocimiento de la geometría de la escena. Calibración de la cámara y obtención de un plano del suelo.
Mediante transformaciones proyectar cada objeto sobre el plano suelo.
Problema que resuelve:
Interacción entre diferentes modelos en la misma escena.
Resolución de oclusiones parciales. Estas generan distorsiones en las medidas y perdidas de las características del objeto a seguir.

Monografias.com

2.4 Integración de modelos.

Monografias.com

2.4 Integración de modelos.

Monografias.com

3. Estimación de estados para sistemas lineales

Monografias.com

3.1 Conceptos básicos.
El problema de estimar un parámetro x es el siguiente. Supongamos que j representa un índice de tiempos discretos y que la medida de observaciones es:

son realizadas en presencia de ruido aleatorio w(j). Para cada k medidas encontramos una función estimación:

donde Zk es el conjunto de estimaciones del parámetro x en ese instante.
Hay dos modelos para parámetros invariantes en el tiempo:
No aleatorios, en donde hay un valor verdadero x desconocido.
Aleatorios, en donde la variable es aleatoria con una función densidad de probabilidad a priori p(x).
En el primer caso buscamos estimar el valor de x cuando k ? ?.
En el segundo caso, dado una función densidad de probabilidad PDF a priori del parámetro, se puede obtener su correspondiente PDF a posteriori utilizando la regla de bayes:

Monografias.com

3.1 Conceptos básicos
Sin embargo, si el parámetro es no aleatorio sus funciones PDF a priori y a posteriori no están definidas por lo que solo tenemos la función de probabilidad:

Un método de estimación de parámetros no aleatorios es estimar la probabilidad máxima o “maximum likelihood” (ML).

La correspondiente estimación aleatoria es la máxima probabilidad a posteriori MAP.

Ej: z=x + w. Asumiendo que x es una constante no conocida y w es N(0,?02) tenemos:

Monografias.com

3.1 Conceptos básicos
La probabilidad a priori en este caso es:

Asumiendo que x es independiente de w, la posteriori PDF será:

Estimación por mínimos cuadrados:

Otro procedimiento de estimación común para parámetros no-aleatorios, son el método de mínimos cuadrados LS. Sea

La estimación de x para cada instante k es minimizar la suma de los errores al cuadrado.

Monografias.com

3.1 Conceptos básicos.
En el caso de parámetros aleatorios, esto supone minimizar el error cuadrático medio MMSE.

que supone minimizar la estimación de la varianza

cuya solución es la media condicional

según los valores sean continuos o discretos.
La cualidad de un estimador es medida mediante la varianza. Para un estimador de un parámetro no aleatorio x con valor verdadero x0, la varianza es

para un estimador con parámetro aleatorio x ,a varianza es la misma que la expresión anterior sustituyendo x0 por x.

Monografias.com

3.1 Conceptos básicos.
Consistencia:
Un estimador no aleatorio se dice que es consistente si

Eficiencia:
De acuerdo con el teorema de baja banda de Cramer-Rao (CRLB), el error cuadrático medio correspondiente al estimador de un parámetro no puede ser más pequeño que una cierta cantidad relacionada con la pdf.

J es la información de Fisher y x0 es el valor verdadero de x. Analogamente para una variable x aleatoria. J se interpreta a veces como la inversa de la matriz de covarianza.

Monografias.com

3.2 Estimadores lineales. Caso estático.
Consideremos dos variables aleatorias x y z con distribución gaussiana. Sea

La notación indica una variable y con medias
y matriz de covarianza

donde

entonces el mínimo error cuadrático medio MMSE del estimador x en términos de z es la media condicional de x dado z,

y el correspondiente error condicional de la matriz de covarianza es

Monografias.com

3.2 Estimadores lineales. Caso estático.
Estimación lineal del mínimo error cuadrático medio:
Sean x y z dos variables aleatorias tal que:
Consideremos el mejor estimador lineal MMSE
En una estimación óptima se espera que:

Sustituyendo b, el error de estimación es:

Por otro lado, por ortogonalidad:

Sustituyendo A en la ecuación llegamos a la ecuación (1).
Análogamente, el error de la matriz de covarianza:

que corresponde con la ecuación(2).

Monografias.com

3.2 Estimadores lineales. Caso estático
Ajuste polinómico con ruido en las medidas:
Consideremos el siguiente polinomio:

donde aj son los parámetros a estimar.
Las medidas con ruido en la posición pueden ser descritas por z(i)=H(i)a+w(i),
i= 1,…,k, donde el vector de parámetros a=(a0 a1 …an) y H(i)=(1 ti ti2/2! …tin /n!).
Consideraremos w(i) un ruido no correlacionado con media cero y varianza ?2 de acuerdo a la covarianza Rk = ?2 I, donde I es la matriz identidad.

Por otro lado

Combinando ambas expresiones llegamos a la siguiente estimación:

Monografias.com

3.2 Estimaciones lineales. Caso estático.

grado n=1 con aceleración constante

Monografias.com

3.2 Estimaciones lineales. Caso estático.

Izquierda n=2 y derecha n=3, y aceleración constante.

Monografias.com

3.3 Filtro de kalman.
Sea x(k) el vector de estado en el sistema dinámico en el tiempo k, y u(k) un vector de entradas conocido o control de la señal. La propagación del estado en el tiempo tk+1 puede expresarse como:

donde v(k) es un ruido gaussiano de media cero y matriz de covarianza Q(k).
Supongamos una serie de observaciones o medidas en el tiempo, cuya ecuación es:

donde w(k) es el ruido gaussiano de una secuencia de media cero y matriz de covarianza R(k) y que no esta correlacionado con v(k). El estado inicial es una gaussiana de media x^(0|0) y covarianza P(0|0).
En cada paso la estimación es x^(k|k) ? E(x(k)|Zk), donde Zk={z(j), j =1…k) las medidas en función de k.
El error condicional asociado al matriz de covarianza es:

El filtro de kalman minimiza en el estado de tiempo tk el error condicional asociado a esta matriz de covarianza.

Monografias.com

3.3 Filtro de kalman.
State prediction:

Measurement prediction:

Innovation:

State prediction covariance:

Innovation covariance:

Filter Gain:

Updated state estimate:

Updated state covariance:

Monografias.com

3.3 Filtro de Kalman

Monografias.com

3.3 Filtro de kalman
Ejemplo simulado de filtro de kalman:
Ecuación de estado xk+1= Akxk+wk donde wk es un ruido gaussiano. Consideramos como variables la posición y la velocidad.

ak es una aceleración aleatoria variable con el tiempo y T es el tiempo entre k y k+1.
Supongamos que medimos la posición p a través de la ecuación zk = pk + vk, donde vk es un ruido aleatorio.
Sea la aceleración 0.5 pies/s2 y que la posición puede variar con un error de 10 pies ( desviación estandar)
Tomaremos como parámetros alpha=1, dt =0.5 y duración 30.

Ej:( código en matlab) www.innovatia.com/software/papers/kalman.htm

Monografias.com

3.3 Filtro de kalman.

Monografias.com

3.3 Filtro de kalman
function kalman(alpha, duration, dt)
% alpha = forgetting factor (alpha >= 1)
% duration = length of simulation (seconds)
% dt = step size (seconds)

measnoise = 10; % position measurement noise (feet)
accelnoise = 0.5; % acceleration noise (feet/sec^2)
a = [1 dt; 0 1]; % transition matrix
c = [1 0]; % measurement matrix
x = [0; 0]; % initial state vector
xhat = x; % initial state estimate
Q = accelnoise^2 * [dt^4/4 dt^3/2; dt^3/2 dt^2]; % process noise covariance
P = Q; % initial estimation covariance
R = measnoise^2; % measurement error covariance
Inn = zeros(size(R)); % set up the size of the innovations vector
pos = []; % true position array
poshat = []; % estimated position array
posmeas = []; % measured position array

Counter = 0; % contador de ciclos.

Monografias.com

3.3 Filtro de kalman
for t = 0 : dt: duration,
Counter = Counter + 1;
ProcessNoise = accelnoise * [(dt^2/2)*randn; dt*randn]; % Simulate the process
x = a * x + ProcessNoise;
MeasNoise = measnoise * randn; % Simulate the measurement
z = c * x + MeasNoise;
Inn = z – c * xhat; % Innovation
s = c * P * c' + R; % Covariance of Innovation
K = a * P * c' * inv(s); % Gain matrix
xhat = a * xhat + K * Inn; % State estimate
P = a * P * a' + Q – a * P * c' * inv(s) * c * P * a'; % Covariance of prediction error
% Save some parameters in vectors for plotting later
pos = [pos; x(1)]; posmeas = [posmeas; z]; poshat = [poshat; xhat(1)];
end
% Plot the results
t = 0 : dt : duration;
t = t';
plot(t,pos,'r',t,poshat,'g',t,posmeas,'b');
grid;
xlabel('Time (sec)');
ylabel('Position (feet)');
title('Kalman Filter Performance');

Monografias.com

3.4 Modelos cinemáticos
Modelo con velocidad constante:
Consideraremos la aceleración nula x’’(t)=0. En la practica, la velocidad puede tener pequeños cambios debidos a ruido x’’(t)=?(t).
El vector de estado será:

La velocidad vendrá dada por: donde
La ecuación para tiempos discretos con intervalo T es:

donde

El proceso de ruido puede expresarse de la siguiente forma:

La covarianza de v(k) asumiendo E[?(t) ?(t)]=q ?(t-?) será:

Monografias.com

3.4 Modelos cinemáticos
Modelo con aceleración constante:

Filtro ?-?-?:

Monografias.com

4.1 Filtro de kalman extendido (EKF).
Consideremos un sistema con ecuación dinámica:

donde E[v(k)]=0, y E[v(k)v’(k)]=Q(k)?kj. La medida es:

donde E[w(k)]=0, y E[w(k)w’(k)]=R(k)?kj. Asumimos que el proceso y la medida del ruido no están correlacionados. En el caso lineal asumimos que:

donde tendrá asociada una covarianza P(k|k). Para obtener la predición del estado en el estado k+1 para el caso no lineal, se desarrolla en series de Taylor en primer y segundo orden, obteniendo la siguiente expresión:

donde ei es un vector base en coordenadas cartesianas. Eliminando términos altos, e introduciendo la matriz de covarianza P llegamos a la siguiente formulación:

Monografias.com

4.1 Filtro de kalman extendido (EKF).
Análogamente, puede obtenerse una expresión para la estimación de la covarianza:

En el caso de la predición de la medida para un filtro hasta segundas derivadas tenemos:

Y su correspondiente covarianza asociada sería:

Si comparamos con el caso lineal para el filtro de kalman, fx(k) hace el papel de la función F(k) y hx(k+1) hace el papel de la función H(k+1).

Monografias.com

4.2. Filtro de partículas.
Caso general:

Monografias.com

4.2. Filtro de partículas.

Monografias.com

4.3 Condensation.
Se busca poder realizar estimaciones para propagaciones de densidad de probabilidad no gaussiana. Para ello generamos un conjunto de muestras s={s(1), …,s(N)} con probabilidades a priori ?={?(1),…,?(N)} y probabilidades acumuladas c={c(1),…,c(N)}.
Las muestras son generadas aleatoriamente con distribución uniforme.
La función de estimación de la certeza de la medida p(z|x) suele ser la desviación respecto a una gaussiana centrada en la media de la población en el caso de seguir un solo objeto.
El sistema es aplicable al seguimiento de multiobjetos, si el criterio de medida es lo suficientemente general para detectar la existencia de los mismos. En ese caso se puede aplicar el teorema de bayes para obtener las probabilidades a posteriori de los pesos.
La principal ventaja de esta técnica es que utiliza la distribución de probabilidad acumulada para decidir que muestras van a sobrevivir en cada iteración, concentrándose los pesos con mayor probabilidad en aquellas hipótesis que obtienen una mejor medida.

Monografias.com

4.3 Condensation.

Kalman filter and Condensation

Monografias.com

4.3 Condensation.

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter